财报会议

NVIDIA FY24 Q1 财报 — iPhone 时刻

历史背景:ChatGPT 发布大约半年之后的第一份完整财报。黄仁勋 在这场电话会议上首次公开抛出"全球 1 万亿美元数据中心正在从 CPU 转向 加速计算"这个核心论断,并把 ChatGPT 的出现类比为"AI 的 iPhone 时刻"。市场把这场视为 加速计算 / AI 工厂 范式正式登场的关键拐点,NVIDIA 当季给出的下一季度 110 亿美元指引也让股价一夜之间被重估。

Q&A 精选

数据中心为什么在此刻起飞

分析师问:数据中心收入要从二季度开始环比接近翻倍,到底是怎么撑起来的?跟 TSMC 的供应链能不能在未来几个季度继续支持这个量级?

黄仁勋:我先从后面说起。记住一件事:当 ChatGPT 那个时刻来临的时候,我们的 Ampere 和 Hopper 已经在全量生产了。ChatGPT 帮助全世界一下子搞清楚一件事:怎么把大语言模型这项技术变成一个可以落地的产品、一个可以接入聊天机器人的服务。把护栏、人类反馈强化学习、向量数据库、企业私有知识、外部搜索全部串在一起——所有技术终于整合成了一个人人都能理解的东西。

这就是为什么我把它称作"iPhone 时刻":所有底层技术都已经就绪很多年了,但只有到这一刻,大家才看清楚它可以变成一个多了不起的产品。我们当时已经在满产了。

NVIDIA 的供应链非常庞大。我们是在量产整台超级计算机——每一颗 GPU 背后,系统板上有三万五千个其他元器件,还有网络、光纤、transceiver、Mellanox 的 SmartNIC、交换机……所有这些东西必须一起到位,才能真正把一个数据中心"立"起来。我们为下半年已经做了巨大的采购追加。

现在让我说说更大的图景——为什么全世界的数据中心都在往 加速计算 上迁移。你听我讲过很多次:加速计算 是一个全栈问题。你要做十五年,才能把几乎整个数据中心的主力应用都加速到位。但一旦做到了,你就可以把数据中心的能耗和成本一口气砍掉一个数量级。

就在 生成式 AI 出现的那一刻,这个准备了十五年的计算平台终于迎来了它的 killer app。于是我们现在同时看到两个转变发生在一起:全球数据中心今天价值接近 1 万亿美元,几乎全部由 CPU 填满,每年以大约 2500 亿美元的速度更新。过去四年差不多就是这 1 万亿美元的规模,而它是完全基于 CPU 和哑 NIC 搭建的——基本上没有被加速过

未来,既然我们已经清楚地看到生成式 AI 将成为大多数数据中心的主力负载,又因为 加速计算 在能耗上碾压传统计算,数据中心的预算结构会剧烈地向加速计算倾斜。你现在看到的正是一场长达十年的大规模置换——全世界的数据中心要被重新建造成加速计算的数据中心。SmartNIC、智能交换机、当然还有 GPU,负载主要就是生成式 AI。

面对各路竞争,NVIDIA 的护城河在哪里

分析师问:需求这么强,会不会吸引更多竞争——定制 ASIC、其他 GPU 方案,未来两三年格局怎么变?

黄仁勋:我们每个方向都有竞争:无数资金充沛的创业公司,老牌半导体公司,还有 CSP 内部自研项目——很多你们都知道。我们时时刻刻都有竞争。

NVIDIA 的核心价值主张是我们提供最低的总拥有成本。这里面有三个原因。

第一是全栈挑战。你必须把所有软件、库、算法全部自己做出来,还要为整个数据中心的架构做优化,而不只是单颗芯片。我们有 400 个加速库。这件事的工程量和底层分布式计算研究,之大是惊人的,是已知最难的计算形式。

第二是规模——数据中心即计算机。生成式 AI 是一个数据中心级别的问题,而不是一个芯片级别的问题。它从来没有这样过。在这种场景下,你的网络操作系统、分布式计算引擎、对网络硬件和交换架构的理解,所有这些合起来才是"你的计算机"——那才是你真正在操作的东西。

第三是通用性带来的高利用率。如果你的芯片只能做一件事做得飞快,那你的数据中心就会有大量闲置。NVIDIA 通用 GPU 的优势是我们把几百种栈全部加速了,利用率极高。

最后一件事是数据中心的工程经验。我们自己建了五个数据中心,我们帮助全世界的客户建数据中心。有些你听说过的超大型超算,从交付到上线要 1 年半。我们的交付到上线是以周计算的。我们已经把数据中心、超级计算机做成了产品。

InfiniBand 与以太网的辩论

分析师问:InfiniBand 对比以太网的辩论你怎么看?在你出货的算力里附着率是多少?

黄仁勋:InfiniBand 和以太网针对数据中心里完全不同的应用场景。InfiniBand 本季度创了纪录。NVIDIA Quantum InfiniBand 的路线图会非常不得了。

InfiniBand 是为 AI 工厂 设计的。如果一个数据中心是在为少数几个应用、少数几个用户、一个专属场景不停地跑——比如花了 5 亿美元搭起来的基础设施——那 InfiniBand 和以太网在总吞吐上的差距大概是 15% 到 20%。如果你投了 5 亿美元,差别就是 1 亿美元——InfiniBand 本质上是免费的。这就是为什么人们用它。

但如果你的数据中心是一个多租户云数据中心,是被几百万人共享的很多个小任务,那以太网才是正确答案。在这中间还有一个新段:生成式 AI 云——它不是 AI 工厂,但它是一个多租户云,想要跑生成式 AI 工作负载。我们下周会在 COMPUTEX 上宣布一个针对这个新段的以太网产品线。

推理 vs 训练:哪个更大

分析师问:推理机会多大?是训练的 5 倍、10 倍?

黄仁勋:我从后往前回答。你永远训练不完。每一次部署你都会收集到新数据,新数据来了你就要继续训练。你永远不会停止训练、不会停止更新向量数据库、不会停止把结构化和非结构化数据向量化。

不管是推荐系统、大语言模型还是向量数据库——这些是未来计算的三大核心引擎——它们永远、永远在运行。越来越多的公司会意识到他们有一个"智能工厂"(intelligence factory),这个工厂的主要作用就是训练、处理数据、向量化数据、学习数据的表征。

而推理这一侧是 API,可以是开放的,可以接入到各种工作流里。一家公司会有几百个 API,有的是自建的,有的来自像 ServiceNow、Adobe 这样和我们在 NVIDIA AI Foundations 上合作的公司。所以你第一次同时看到两件事:AI 工厂 这一段在快速增长,而以前几乎不存在的一段——AI 推理 API 市场——现在几乎每周都在指数级扩张。

最容易的理解方式是:全世界有 1 万亿美元装机的数据中心,过去 100% 是 CPU。未来四到五年,甚至十年,这 1 万亿美元里面,加上自然增长,将以生成式 AI 为主。训练和推理都是。

DGX Cloud 的架构

分析师问:DGX Cloud 的理想混合是怎样的?

黄仁勋:理想的比例大概是 10% 是 NVIDIA DGX Cloud,90% 是 CSP 自己的云。DGX Cloud 是纯 NVIDIA 栈,是按我们自己想要的方式搭建的。它让我们可以非常深地和 CSP 合作——共同打造最高性能的基础设施,并一起开发新的市场。

比如我们和 Azure 合作把 NVIDIA Omniverse Cloud 带到全世界的工业客户里。这样一套计算栈——生成式 AI、3D、物理仿真、超大数据库、超低延迟网络——这种虚拟工业世界前所未见。我们和微软共同把它搭进了 Azure 云里。

闭幕陈述

计算产业正在同时经历两场转变:加速计算 和 生成式 AI。

CPU 的性能曲线已经放缓,但算力需求依然强劲,而 生成式 AI 又在其之上进一步放大。加速计算——一种全栈的、数据中心尺度的方法,由 NVIDIA 开创——是前进的最佳路径。

全球已装机的数据中心价值 1 万亿美元,建立在上一个时代的通用计算方法之上。现在,所有公司都在冲刺,把他们的数据中心改造成 生成式 AI 时代的 加速计算 架构。未来十年,全球大部分数据中心都会被加速。我们正在大幅增加产能,以满足这波暴涨的需求。

生成式 AI 正在从实验室走向工业应用。无论是在我们 CSP 合作伙伴的云里,还是在 Dell Helix 这样的本地部署里,或是 ServiceNow、Adobe 这样的企业级平台里,我们都在帮助企业安全地用他们自己的数据和领域经验去驾驭 生成式 AI。

我们正在推出一整波新产品:H100、Grace CPU 和 Grace Hopper 超级芯片、BlueField-3、Spectrum-4——它们都已经在量产。下周 COMPUTEX,我们再聊下一步。


原文出处Motley Fool — NVDA Q1 FY24 Earnings Call Transcript
相关卡片加速计算 · AI 工厂 · CUDA 平台 · Hopper · 数据中心即计算机 · ChatGPT